Опасността от дълбоки фалшификации не е това, което си мислите
Една от нашите най-крещящи морални суматохи в наши дни е страхът, че задействаните с изкуствен интелект дълбоки фалшификации ще унищожат демокрацията. Половината от популацията на света гласоподава в 70 страни тази година. Около 1500 специалисти, интервюирани от Световния стопански конгрес в края на 2023 година, считат, че дезинформацията и дезинформацията са най-сериозният световен риск през идващите две години. Дори рисковите метеорологични опасности и междудържавните въоръжени спорове се преглеждат като по-малко заплашителни.
Но, напишете го деликатно, опасенията им наподобяват пресилени. Не за първи път консенсусът от Давос може да е неверен.
Измамата е присъща за човешката природа, откогато гърците изхвърлиха дървен кон пред стените на Троя. Съвсем неотдавна обявата на Daily Mail на писмото на Зиновиев – подправен документ, за който се твърди, че е от руския началник на Коминтерна – оказа огромно въздействие върху английските общи избори през 1924 година
Разбира се, това беше преди интернет възраст. Тревогата в този момент е, че силата на ИИ може да индустриализира такава дезинформация. Интернет понижи разноските за разпространяване на наличие до нула. Generative AI понижава разноските за генериране на наличие до нула. Резултатът може да бъде голям размер информация, която може, както запаметяващо се изрази американският политически пълководец Стив Банън, да „ наводни зоната с лайна “.
Deepfakes — реалистично, генерирано от AI аудио, изображение или видео фалшификати — съставляват особена опасност. Най-новите аватари, генерирани от водещи AI компании, са толкоз положителни, че са съвсем неразличими от същинските. В подобен свят на „ подправени хора “, както ги назова починалият мъдрец Даниел Денет, на кого можете да се доверите онлайн? Опасността не е толкоз гласоподавателите да се доверят на ненадеждните, а че няма да се доверят на надеждните.
Въпреки това най-малко към този момент дълбоките имитации не нанасят толкоз доста политически вреди, колкото се притесняваха. Някои започващи генеративни AI настояват, че казусът е по-скоро в разпространяването, в сравнение с в генерирането, прехвърляйки отговорността на гигантските платформени компании. На Мюнхенската конференция по сигурността през февруари 20 от тези огромни софтуерни компании, в това число Гугъл, Meta и TikTok, дадоха обещание да задушат дълбоките фалшификации, предопределени да подвеждат. Все още е мъчно да се каже до каква степен фирмите извършват обещанията си, само че относителната липса на кавги е обнадеждаваща.
Движението за разузнаване с отворен код, което включва легиони от кибер детективи, също е дейно в развенчаването на дезинформация. Американски учени сътвориха база данни за политически Deepfakes произшествия, с цел да проследят и разобличат феномена, записвайки 114 случая до този януари. Възможно е все по-широкото потребление на AI принадлежности от милиони консуматори единствено по себе си да задълбочава разбирането на обществото за технологията, като имунизира хората против дълбоки имитации. изборите с 642 милиона души, които са дали своят вот, бяха забавен тест. Имаше необятно потребление на AI принадлежности за показване на претенденти и звезди, генериране на утвърждения от мъртви политици и мятане на тиня по съперниците в политическия въртоп на индийската народна власт. И въпреки всичко изборите не изглеждаха обезобразени от цифровата операция.
Двама специалисти от Harvard Kennedy School, Вандиника Шукла и Брус Шнайер, които изследваха потреблението на AI в акцията, заключиха, че технологията е употребена най-вече градивно.
Например, някои политици използваха формалната платформа Bhashini и AI приложения, с цел да дублират речите си на 22-та публични езика на Индия, задълбочавайки връзките с гласоподавателите. „ Способността на технологията да създава дълбоки имитации без единодушие на всеки може да затрудни разграничаването на истината от измислицата, само че нейните консенсусни използва евентуално ще създадат демокрацията по-достъпна “, пишат те.
Това не значи потребление на deepfakes постоянно е доброкачествено. Те към този момент са били употребявани за причиняване на незаконни вреди и персонални премеждия. По-рано тази година английската инженерна компания Arup беше излъгана с 25 милиона $ в Хонконг, откакто измамници използваха цифрово клонирано видео на старши управител, с цел да наредят финансов трансфер. Този месец експлицитни дълбоки подправени изображения на 50 девойки от гимназията Bacchus Marsh в Австралия бяха публикувани онлайн. Изглежда, че фотосите на девойките са били отстранени от изявления в обществените медии и манипулирани, с цел да се основат изображенията.
Престъпниците постоянно са измежду най-ранните възприематели на всяка нова технология. Това е тяхното злокобно потребление на дълбоки имитации за ориентиране към частни лица, което би трябвало да ни тревожи най-вече. Публичните използва на технологията за незаконни средства е по-вероятно да бъдат бързо разкрити и противодействани. Трябва да се тревожим повече за политиците, които бълват достоверни нелепости, в сравнение с за подправени AI аватари, генериращи неавтентични глупости.